1
L'évolution de la formulation : des instructions basiques au raisonnement structuré
AI012Lesson 3
00:00

Hiérarchie de la formulation : des instructions à la logique

La formulation s'est développée depuis des entrées basées sur des commandes simples vers des architectures de raisonnement qui guident le parcours interne du modèle.

Concepts fondamentaux

  • Formulation zéro-exemple : Fournir une description de tâche sans aucun exemple (par exemple, « Traduisez ceci en français »).
  • Formulation à quelques exemples : Utiliser des « démonstrations » (paires d'entrée-sortie) pour définir l'espace des étiquettes et le format souhaité.
  • Chaîne de pensée (CoT) : Une technique de formulation qui incite le modèle à produire des étapes intermédiaires de raisonnement.
  • Propriétés émergentes : Le raisonnement complexe n'est pas explicitement programmé mais « émerge » dans les modèles généralement dépassant 10 milliards de paramètres.

Le changement de paradigme du raisonnement

  1. Suivi d'instructions : Mappage direct de l'entrée vers la sortie.
  2. Apprentissage en contexte : Apprendre des motifs à partir d'exemples fournis (formulation à quelques exemples).
  3. Décomposition logique : Décomposer les problèmes en étapes séquentielles (Chaîne de pensée).
  4. Surveillance du processus : Privilégier la précision des étapes de « réflexion » par rapport à la réponse finale (comme observé dans OpenAI o1).
Point clé
Les performances des modèles dans les scénarios à quelques exemples sont très sensibles à la distribution des étiquettes et à la pertinence des démonstrations, plutôt qu'à la quantité d'exemples fournis.
prompting_strategies.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
Which method relies on providing "demonstrations" to guide the model?
Zero-shot prompting
Few-shot prompting
Chain-of-Thought
Fine-tuning
Question 2
True or False: Chain-of-Thought reasoning is a capability found in almost all AI models regardless of size.
True
False
Challenge: Optimizing Logic Puzzles
Scenario: Optimize a prompt for a model that is struggling with a logic puzzle.
You are using an LLM to solve the following puzzle: "A bat and a ball cost $1.10 in total. The bat costs $1.00 more than the ball. How much does the ball cost?"

Currently, you are passing the prompt exactly as written above, and the model incorrectly answers "$0.10".
Task 1
Identify if the current prompt is Zero-shot or Few-shot.
Solution:
The current prompt is Zero-shot because it provides the task description without any prior examples or demonstrations of similar solved puzzles.
Task 2
Inject the Zero-shot CoT trigger phrase to improve reasoning accuracy. Rewrite the prompt.
Solution:
"A bat and a ball cost $1.10 in total. The bat costs $1.00 more than the ball. How much does the ball cost? Let's think step by step:"